Световни новини без цензура!
ИИ Изследовател поема изборите Deepfakes
Снимка: nytimes.com
New York Times | 2024-04-02 | 19:36:35

ИИ Изследовател поема изборите Deepfakes

В продължение на съвсем 30 години Орен Ециони беше измежду най-оптимистичните откриватели на изкуствения разсъдък.

Но през 2019 година доктор Ециони, професор от Вашингтонския университет и основен изпълнителен шеф на Алън Института за ИИ, стана един от първите откриватели, предизвестили, че нова порода ИИ. ще форсира разпространяването на дезинформация онлайн. И доникъде на предходната година, сподели той, той е бил смутен, че генерираните от изкуствения разсъдък дълбоки имитации ще провокират огромни избори. Той основа организация с нестопанска цел TrueMedia.org през януари, надявайки се да се бори с тази опасност.

Във вторник организацията пусна безвъзмездни принадлежности за идентифициране на цифрова дезинформация с проект да сложи в ръцете на публицисти, проверяващи обстоятелства и всеки различен, който се пробва да разбере какво е действително онлайн.

Инструментите, налични от уеб страницата TrueMedia.org за всеки, утвърден от организацията с нестопанска цел, са предопределени да откриват подправени и подправени изображения, аудио и видео. Те преглеждат връзките към медийни файлове и бързо дефинират дали би трябвало да им се има вяра.

милиарди хора по света са подготвени да гласоподават на избори, той продължава да рисува мрачна картина на това, което следва.

„ Ужасен съм “, сподели той. „ Има доста огромна възможност да станем очевидци на цунами от дезинформация. “

Само през първите няколко месеца на годината, A.I. технологиите помогнаха за основаването на подправени гласови позвънявания от президента Байдън, подправени изображения и аудиореклами на Тейлър Суифт и цяло подправено изявление, което наподобява показваше украински чиновник, който поема отговорност за терористична офанзива в Москва. Откриването на такава дезинформация към този момент е мъчно – и софтуерната промишленост продължава да пуска все по-мощен ИИ. системи, които ще генерират все по-убедителни дълбоки фалшификации и ще създадат откриването още по-трудно.

Много откриватели на изкуствения разсъдък предизвестяват, че опасността набира мощ. Миналия месец повече от хиляда души - в това число доктор Ециони и няколко други известни A.I. откриватели — подписаха отворено писмо, призоваващо за закони, които да накарат разработчиците и дистрибуторите на A.I. аудио и образните услуги са виновни, в случай че технологията им е била елементарно употребена за основаване на нездравословни deepfakes.

На събитие, проведено от Колумбийския университет в четвъртък, Хилари Клинтън, някогашен държавен секретар, интервюира Ерик Шмид, някогашен основен изпълнителен шеф на Гугъл, който предизвести, че видеоклиповете, даже подправените, могат да „ движат държанието при гласоподаване, човешкото държание, настроенията, всичко. “

лимитират вредите, които тези технологии могат да причинят. Anthropic, Гугъл, Meta и OpenAI оповестиха проекти за ограничение или етикетиране на обвързваните с избори използва на техните услуги с изкуствен интелект. През февруари 20 софтуерни компании – в това число Amazon, Microsoft, TikTok и X – подписаха непринуден ангажимент за попречване на лъжливи A.I. наличие от спиране на гласуването.

Това може да е предизвикателство. Компаниите постоянно пускат своите технологии като програмен продукт с „ отворен код “, което значи, че всеки е свободен да ги употребява и трансформира без ограничавания. Експертите споделят, че технологията, употребена за основаване на дълбоки подправени фалшиви имитации – резултат от големи вложения на доста от най-големите компании в света – постоянно ще изпреварва технологията, предопределена за разкриване на дезинформация.

Миналата седмица, по време на изявление с The New York Times, доктор Ециони сподели какъв брой елементарно е да се сътвори бездънен подправен. Използвайки услуга от дъщерна организация с нестопанска цел, CivAI, която употребява A.I. принадлежности, елементарно налични в интернет, с цел да показва заплахите от тези технологии, той неотложно сътвори фотоси на себе си в пандиза - някъде, където в никакъв случай не е бил.

оферират сходна технология.

Когато доктор Етизони даде на инструментите на TrueMedia известна дълбока подправена версия на господин Тръмп, седнал на една кула с група млади чернокожи мъже, те го дефинираха като „ мощно съмнително “ – най-високото им равнище на доверие. Когато той качи друга известна дълбока подправена версия на господин Тръмп с окървавени пръсти, те бяха „ несигурни “ дали е същинска или подправена. Някои компании, в това число OpenAI и Meta, към този момент етикетират изображения, генерирани от AI, с водни знаци. И откривателите изследват спомагателни способи за обособяване на същинското от подправеното.

Университетът на Мериленд създава криптографска система, основана на QR кодове, за засвидетелствуване на непроменени записи онлайн. Проучване, оповестено предишния месец, помоли десетки възрастни да дишат, преглъщат и мислят, до момента в който приказват, тъй че техните модели на паузи в речта да могат да бъдат съпоставени с ритмите на клонирано аудио.

Но като доста други други специалисти, доктор Ециони предизвестява, че водните знаци на изображенията се отстраняват елементарно. И макар че е посветил кариерата си на битката с дълбоките имитации, той признава, че инструментите за разкриване ще се борят да надминат новия генеративен ИИ. технологии.

Откакто сътвори TrueMedia.org, OpenAI разкри две нови технологии, които дават обещание да създадат работата му още по-трудна. Човек може да пресъздаде гласа на човек от 15-секунден запис. Друг може да генерира видеоклипове с цялостно придвижване, които наподобяват като нещо извадено от холивудски филм. OpenAI към момента не споделя тези принадлежности с обществеността, защото работи, с цел да разбере евентуалните рискове.

съди OpenAI и неговия сътрудник, Microsoft, за искове за нарушение на авторски права, включващи системи с изкуствен интелект, които генерират текст.)

В последна сметка, сподели доктор Ециони, битката с казуса ще изисква необятно съдействие сред държавните регулатори, фирмите, създаващи ИИ. технологии и софтуерните колоси, които управляват уеб браузърите и обществените медийни мрежи, където се популяризира дезинформация. Той обаче сподели, че вероятността това да се случи преди есенните избори е дребна.

„ Опитваме се да дадем на хората най-хубавата техническа оценка на това, което следва тях “, сподели той. „ Те към момента би трябвало да решат дали е същинско. “

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!